Ja, vielen herzlichen Dank für die Begrüßung und vielen herzlichen Dank für die Möglichkeit,
hier über meine Arbeit sprechen zu dürfen im Kollegium Alexandrinum. Zu meiner Person wurde
schon ein bisschen was gesagt. Ich bin eigentlich Oberpfälzer, habe dann in Würzburg eben Physik
und Komposition studiert und bin in dem Bereich auch noch aktiv, also ich komponiere noch und
damit es gleich mit Musik losgeht, habe ich Ihnen eine Minute Kostprobe meiner Musik mitgebracht,
genauer gesagt vom Seitengesang für Cello und Klavier.
Ja, was macht man mit so einer verrückten Kombination? Es war zunächst nicht der Plan,
das irgendwie zu kombinieren, bis ich dann auf die Forschungsthemen des Fraunhofer Instituts für
digitale Medientechnologien Ilmenau aufmerksam geworden bin, wo ich dann eine Promotion begonnen
habe mit dem griffigen Titel Computational Methods for Tonality-Based Style Analysis of
Classical Music Audio Recordings und was der genau bedeutet, wissen Sie hoffentlich in einer Stunde
etwas besser. Seit 2015 bin ich in Erlangen bei den Audiolabs, arbeite nebenher als freischaffender
Komponist und habe mich letztes Jahr gefreut über den Klartextpreis für Wissenschaftskommunikation.
Was sind die Audiolabs? Die Audiolabs sind eine Gemeinschaftseinrichtung dieser beiden Institutionen,
des Fraunhofer Instituts für integrierte Schaltungen und der Universität und die haben ein bekanntes
Kind, das heißt MP3 und dem Erfolg von MP3 haben wir unter anderem auch die Audiolabs zu verdanken,
wo eben im Bereich Audio weitergeforscht wird, vor allem von diesen Professoren für ganz
verschiedene Themen rund ums Thema Audio. Da gibt es einerseits die klassische Sparte,
die Audiokodierung, also Nachfolgetechnologien von MP3, das hängt dann auch wieder sehr eng zusammen
mit der Psychoakustik, dann wird geforscht im Bereich dreidimensionales Audio und virtuelles
Audio und eben auch im Bereich der Musikverarbeitung. In der Arbeitsgruppe bin ich beschäftigt und wir
sind derzeit fünf Leute, geleitet von Professor Meinhard Müller, da haben wir mehrere Doktoranden.
Und die Themen der Musikverarbeitung oder das Music Information Retrieval drehen sich alle um
die Analyse von Musikaufnahmen, also Audiodaten von Musik, zum Beispiel die Synchronisierung
zwischen verschiedenen Modalitäten oder zwischen verschiedenen Einspielungen eines Werkes,
die Strukturanalyse von Musikdaten, die Harmonieanalyse oder auch Tempo- und Rhythmusanalyse.
Und so der heilige Gral unserer Forschungsrichtung ist sozusagen die automatische Transkription,
das heißt man will ein Audio reinstecken und eine vollständige Partitur wieder raus bekommen,
das ist nicht so einfach. Deswegen beschäftigen wir uns heute mit einem anderen Thema, nämlich
der Harmonieanalyse. Und für die unter Ihnen, die vielleicht kein Instrument spielen, ist der
Begriff vielleicht etwas sperrig. Eine praktische Anwendung, wenn ich zum Beispiel dieses wunderschöne Lied habe.
Genau, kennt jeder. Und es gibt dann doch sehr oft die Situation, dass man als Lagerfeuergitarist
den Song dann spontan begleiten soll. Und die meisten Lagerfeuergitaristen haben irgendwann mal
gelernt, nach solchen schönen Buchstaben zu spielen. Das sind Akkordsymbole und zu jedem
Symbol hat dann der Lagerfeuergitarist einen schönen Griff gelernt. Und wo kommen die Symbole her? Da
hat entweder ein schlauer Mensch mit guten Ohren sich mal hingesetzt und hat die aufgeschrieben
oder ein schlauer Algorithmus hat die berechnet. Und solche Algorithmen werden wir heute ein bisschen
kennenlernen. Es gibt Harmonieanalyse auch in der klassischen Musik, da ist es sogar noch wichtiger.
Und da habe ich heute ein Beispiel mitgebracht, ein Choral von Bach.
Ich habe da unten schon mal eine kleine Harmonieanalyse mit eingeblendet. Das sind jetzt keine
Akkordsymbole, sondern eher Tonarten, lokale Tonarten. Und wenn die Tonart wechselt,
dann sprechen wir von einer Modulation. Das ist zum Beispiel hier der Fall. Und warum das wichtig
ist, ein Grund dafür ist, dass es oft sehr viel mit der musikalischen Struktur zu tun hat. Das heißt,
an manchen dieser Modulationen oder Tonartwechsel sind auch Strukturgrenzen. In dem Fall haben wir
zum Beispiel hier zweimal einen Teil, den man Stollen nennt, der wiederholt wird und einen
Abgesang. Und das ergibt dann die musikalische Barform. Wie macht der Musikwissenschaftler das?
Der geht üblicherweise nicht vom Audio aus, sondern von so einem Klavierauszug oder Notentext. Und der
hat dann eben gelernt, sehr gut Noten zu lesen und sieht dann sofort, hier sind vier Kreuz und hier
steht sonst nicht viel an Vorzeichen. Also ist das auf jeden Fall mal hier E-Dur. Dann sieht er hier
so ein bisschen A-is, also einen erhöhten Ton, H-Dur und der Rest, ja da sind ein paar komische
Presenters
Christof Weiß
Zugänglich über
Offener Zugang
Dauer
00:58:54 Min
Aufnahmedatum
2019-05-09
Hochgeladen am
2019-05-24 15:04:32
Sprache
de-DE
Im Grenzbereich von Musik, Naturwissenschaft und Technik ist ein spannender Forschungsbereich entstanden, der Algorithmen zur Beschreibung von Musikaufnahmen (Audio) entwickelt. Ausgehend von einfachen Frequenzmessungen können Tonhöhen, Akkorde und Tonarten analysiert werden – bis hin zur automatischen Erkennung von Epochen oder Komponisten. Solche Technologien bieten auch neue Möglichkeiten für die Musikwissenschaften, was mitunter zu erstaunlichen Ergebnissen führt.